IA: destilación, “padre-hijos” y ética en la formación ejecutiva

La integración de tecnologías avanzadas en la formación ejecutiva, en particular con la introducción de la inteligencia artificial (IA), requiere un enfoque tanto innovador como ético. Las escuelas de formación ejecutiva que buscan impactos globales y un posicionamiento competitivo y diferenciación positivos deben ser claros adoptantes de estas tecnologías desde el principio, no sólo para ampliar el alcance y la eficacia de la enseñanza, sino también para fomentar una comprensión profunda de las responsabilidades éticas asociadas a su uso.
La formación ejecutiva, como cualquier formación, debe trabajar por y con valores para formar personas completas y no sólo profesionales o derivados de una función útil. La formación ejecutiva debe por tanto ayudar a sus participantes a estar claramente mejor equipados en términos humanos, en valores y prácticas, en relaciones y en decisiones que les permitan utilizar herramientas profesionales con un carácter ético y con una matriz humana.
Entre las innovaciones más significativas de los últimos tiempos está (no sólo la IA generativa per se ) la capacidad de crear “hijos” “LLM” ( Large Language Models ) a partir de “padres” “LLM” lo cual, para ser posible, era más exigente energéticamente, utilizaba “GPU” ( Graphics Process Units ) de última generación a precios superiores y muchas más horas de entrenamiento. Sin embargo, es esencial saber si el “niño” “LLM” tuvo un surgimiento legal al destilar conocimiento de un modelo “padre”. Porque la destilación no es suficiente para democratizar la IA. Es necesario entender claramente si se violó alguna regulación de propiedad intelectual para lograr una mayor eficiencia o, en términos más simples, menores costos.
Esta metodología de destilación permite que los modelos “hijos” hereden las capacidades lingüísticas y cognitivas del modelo “padre”, pero con una fracción de los requisitos computacionales y energéticos. Vimos este caso recientemente, ¿verdad? Pregunta: ¿Esta destilación se realizó sin violar la propiedad intelectual y sin romper barreras éticas? Este conocimiento también debe transmitirse a los diferentes participantes, ya que deben ser capaces de tomar las decisiones que necesitan para apelar a la integridad y a los valores que la escuela debe inculcarles, basándose en los hechos.
Las implicaciones éticas de estas tecnologías “hijas”, aunque más eficientes, son complejas y multifacéticas. La controversia en torno al uso: ¿cómo, en qué circunstancias, con qué fines? – a partir de modelos “padres” basados en IA, destaca claramente las opciones (elecciones) que se deben tomar. Las escuelas de formación ejecutiva deberían liderar dichos diálogos, presentando alternativas pero explicando cómo se obtuvieron e integrando debates sobre ética, privacidad, uso justo y transparencia en sus programas de estudio. No basta con ser más eficientes, o mejor aún, tener menores costes e incluso operar en “ código abierto” . Es necesario conocer los medios para lograr los fines.
A medida que la IA transforma la forma en que se imparte la educación ejecutiva, las escuelas que aspiran a tener presencia global también deben asumir su papel en la formación de líderes que no solo deben comprender los matices tecnológicos de la IA, sino también ser defensores de los principios éticos que deben guiar su uso. La destilación del conocimiento, como facilitador de la innovación tecnológica, debe ir acompañada de un compromiso renovado con los valores fundamentales del respeto, la propiedad intelectual, la justicia y la responsabilidad humana. En última instancia, las escuelas de formación empresarial y ejecutiva deben justificar el uso de un determinado medio, aplicación u otro, para lograr un determinado resultado. Y eso ayuda a poner el corazón en el lado correcto.
Nota: la supuesta ilegalidad de la creación de la aplicación DeepSeek basada en la violación de la propiedad intelectual de Open AI (ChatGPT) está en cuestión hasta que se pruebe.
jornaldenegocios